YARN产生背景
- MapReduce1.x存在的问题:单点故障&节点压力大不易扩展,如下图:
- 单点故障:整个集群里只有一个JobTracker,一旦挂掉,整个架构就无法完成作业运行
- 节点压力大不易扩展:JobTracker要来自TaskTracker的rpc请求(心跳)和client的提交查询请求;随着集群的扩展,当集群越来越大的时候TaskTracker就会成为一个瓶颈不易扩展,压力很大
- 每个Slave机器可运行的最大Map tasks数量和Reduce tasks数量固定
- 不能够支持除了mapreduce意外的框架:JobTracker承载的任务比较多;整个架构只能支持mapreduce作业,不支持storm,spark作业。
- 难以共享集群资源
- Spark Strom Impala
(MapReduce:Master/Slave架构,1个JobTracker带多个TaskTracker)
- JobTracker: 负责资源管理和作业调度,任务分配
- TaskTracker:定期向JT汇报本节点的健康状况、资源使用情况、作业执行情况;接收来自JT的命令:启动任务/杀死任务
在mapreduce1.X中;资源叫slot;每台节点只有获取到了slot才可以启动多少个map和多少个reduce;不能够指定cpu资源;启动后也不可更改资源。比较粗糙;难以共享集群资源。
MapReduce V1 执行job流程
- 催生了YARN的诞生
YARN:不同计算框架可以共享同一个HDFS集群上的数据,享受整体的资源调度
XXX on YARN的好处:(XXX: Spark/MapReduce/Storm/Flink)
与其他计算框架共享集群资源,按资源需要分配,进而提高集群资源的利用率
YARN概述
- 从Hadoop 2.0开始出现了Yarn
- Yet Another Resource Negotiator (另一个种资源协调者)
- 通用的资源管理系统
- 为上层应用提供统一的资源管理和调度 hive spark 等
ResurceManager(RM):
RM是一个全局的资源管理器,集群只有一个,负责整个系统的资源管理和分配,包括处理客户端请求、启动/监控Applications master、监控nodemanager、资源的分配与调度。
它主要由两个组件构成:调度器(Scheduler)和应用程序管理器(Applications Manager,ASM)。
- 调度器
- 调度器根据容量、队列等限制条件(如每个队列分配一定的资源,最多执行一定数量的作业等),将系统中的资源分配给各个正在运行的应用程序。需要注意的是,该调度器是一个“纯调度器”,它不再从事任何与具体应用程序相关的工作,比如不负责监控或者跟踪应用的执行状态等,也不负责重新启动因应用执行失败或者硬件故障而产生的失败任务,这些均交由应用程序相关的ApplicationMaster完成。调度器仅根据各个应用程序的资源需求进行资源分配,而资源分配单位用一个抽象概念“资源容器”(Resource Container,简称Container)表示,Container是一个动态资源分配单位,它将内存、CPU、磁盘、网络等资源封装在一起,从而限定每个任务使用的资源量。此外,该调度器是一个可插拔的组件,用户可根据自己的需要设计新的调度器,YARN提供了多种直接可用的调度器,比如Fair Scheduler和Capacity Scheduler等。
- 应用程序管理器
- 应用程序管理器负责管理整个系统中所有应用程序,包括应用程序提交、与调度器协商资源以启动ApplicationMaster、监控ApplicationMaster运行状态并在失败时重新启动它等。
YARN架构
YARN架构:
- ResourceManager: RM(通常会另外部署一个standby来解决单点故障)
- 一个集群只有一个,全局的资源管理器
- 处理客户端的请求: 提交一个作业、杀死一个作业
- 监控Node Manger,汇总上报的资源
- 根据请求分配资源
- NodeManager: NM
- 每个从属节点一个
- 管理自身所属节点的资源
- 监控资源使用情况(cpu, memory, disk,network)并向Resource Manager汇报
- 接收并处理来自RM的各种命令:启动Container
- 处理来自AM的命令
- 单个节点的资源管理
- 每个从属节点一个
- ApplicationMaster: AM
- 每个应用程序对应一个:MR、Spark,负责应用程序的管理
- 为应用程序向RM申请资源(core、memory),分配给内部task
- 需要与NM通信:启动/停止task,task是运行在container里面,AM也是运行在container里面
- Container
- 封装了CPU、Memory等资源的一个容器
- 是一个任务运行环境的抽象
- Client
- 提交作业
- 查询作业的运行进度
- 杀死作业
通常NodeManager会和DataNode混合部署,why?
可以从内存、cpu、磁盘的使用来讲。
Yarn 基本思想
- 在MapReduce V1中
- JobTracker = 资源管理器 + 任务调度器
- 在Yarn中做了切分
- 资源管理
- 让ResourceManager负责
- 任务调度
- 让ApplicationMaster负责
- 每个作业启动一个
- 根据作业切分任务tasks
- 向Resource Manager申请资源
- 与NodeManager协作,将分配申请到的资源给内部任务tasks
- 监控tasks运行情况,重启失败的任务
- 让ApplicationMaster负责
- 资源管理
- JobHistoryServer
- 每个集群每种计算框架一个
- 负责搜集归档所有的日志
Yarn 计算资源抽象
- 在Yarn中,计算资源被抽象为Container
- 每个Container描述:
- 可使用的CPU资源和内存资源
- 执行命令
- 环境变量
- 外部资源
- 如何获得运行各个任务的Container?
- 由ApplicationMaster向ResourceManager申请
- ApplicationMaster本身也运行在一个Container,这个Container由ResourceManager向自身申请启动
- 如何启动运行?
- 向Container所属的Node Manager发起运行
上图中一个core并不代表一个cpu;它是衡量cpu计算能力的一个单位;比如早期的物理机cpu计算能力差就按照1:1来算core,一个cpu相当于一个core;而后期新买的物理机计算能力强1:2来算core,一个cpu相当于两个core。